# Distributed Training

Fresh Picks
EPLB
EPLB
Expert Parallelism Load Balancer (EPLB) is a load balancing algorithm for Expert Parallelism (EP) in deep learning. It ensures load balance across different GPUs through a redundant expert strategy and a heuristic packing algorithm, while utilizing group-constrained expert routing to reduce inter-node data traffic. This algorithm is significant for large-scale distributed training, improving resource utilization and training efficiency.
Model Training and Deployment
54.6K
Fresh Picks
DualPipe
Dualpipe
DualPipe is an innovative bidirectional pipeline parallel algorithm developed by the DeepSeek-AI team. By optimizing the overlap of computation and communication, this algorithm significantly reduces pipeline bubbles and improves training efficiency. It performs exceptionally well in large-scale distributed training, especially for deep learning tasks requiring efficient parallelization. DualPipe is developed based on PyTorch, easy to integrate and extend, and suitable for developers and researchers who need high-performance computing.
Model Training and Deployment
52.7K
LLaSA_training
Llasa Training
LLaSA_training is a speech synthesis training project based on LLaMA, aimed at enhancing the efficiency and performance of speech synthesis models by optimizing training and inference computational resources. This project leverages both open-source datasets and proprietary datasets for training, supports various configurations and training methods, and offers high flexibility and scalability. Its main advantages include efficient data processing capabilities, strong speech synthesis effects, and support for multiple languages. This project is suitable for researchers and developers in need of high-performance speech synthesis solutions, applicable to the development of intelligent voice assistants, speech broadcasting systems, and other scenarios.
Model Training and Deployment
58.2K
Memory
Memory
Memory Layers at Scale is an innovative implementation of memory layers that adds extra parameters to models through a trainable key-value lookup mechanism, without increasing floating-point operations. This method is particularly significant in large-scale language models as it enhances the model's storage and retrieval capabilities while maintaining computational efficiency. The key advantages of this technology include effective model capacity expansion, reduced computational resource consumption, and improved model flexibility and scalability. Developed by the Meta Lingua team, this project is suited for scenarios that handle large datasets and complex models.
AI Model
46.9K
prime
Prime
PrimeIntellect-ai/prime is a framework designed for efficient, globally distributed training of AI models over the internet. Through technological innovation, it facilitates cross-regional AI model training, improves computing resource utilization, and reduces training costs, which is critical for AI research and application development that requires significant computational resources.
Model Training and Deployment
52.4K
INTELLECT-1-Instruct
INTELLECT 1 Instruct
INTELLECT-1-Instruct is a 1 billion parameter language model trained from scratch on 1 trillion English text and code tokens by Prime Intellect. The model supports text generation and has the capability for distributed training, allowing for high-performance training across unreliable, globally distributed workers. It utilizes the DiLoCo algorithm for training and a custom int8 all-reduce kernel to minimize communication load, significantly reducing communication overhead. The background information reveals that it has received computational support from 30 independent community contributors and underwent training across 14 concurrent nodes on three continents.
AI Model
49.7K
Meta Lingua
Meta Lingua
Meta Lingua is a lightweight and efficient library for training and inference of large language models (LLMs) designed specifically for research purposes. It utilizes easy-to-modify PyTorch components, enabling researchers to experiment with new architectures, loss functions, and datasets. The library aims to facilitate end-to-end training, inference, and evaluation, providing tools for better understanding the speed and stability of the models. Although Meta Lingua is still under development, it already offers several sample applications demonstrating how to use this repository.
Model Training and Deployment
52.2K
English Picks
Prime Intellect
Prime Intellect
Prime Intellect is committed to democratizing AI development on a scalable scale. It offers the discovery of global computing resources, model training, and the capability to co-own smart innovation. By distributing training across clusters, it enables users to train cutting-edge models and co-own the open AI innovation outcomes, including language models and scientific breakthroughs.
Development Platform
67.9K
Fresh Picks
OpenDiLoCo
Opendiloco
OpenDiLoCo is an open-source framework that implements and extends DeepMind’s Distributed Low-Bandwidth (DiLoCo) method, supporting global distributed AI model training. It makes it possible to efficiently train AI models in areas with scattered resources by providing a scalable and decentralized framework, which is significant for promoting the普及 and innovation of AI technology.
AI development assistant
51.9K
Zero Bubble Pipeline Parallelism
Zero Bubble Pipeline Parallelism
Zero Bubble Pipeline Parallelism is a crucial component of large-scale distributed training, and its efficiency is affected by pipeline bubbles. We introduce a scheduling strategy that successfully achieves zero pipeline bubbles under synchronous training semantics. The core idea behind this improvement is to divide backward calculation into two parts: one part calculates the gradients of the input, and the other part calculates the gradients of the parameters. Based on this idea, we manually designed novel pipeline scheduling, which significantly outperforms benchmark methods. We further developed an algorithm that automatically finds the optimal scheduling based on specific model configuration and memory constraints. Furthermore, to truly achieve zero bubbles, we introduce a novel technique that bypasses synchronization during optimizer steps. Experimental evaluation demonstrates that our method achieves up to 23% higher throughput than the 1F1B schedule under similar memory constraints. This number can further increase to 31% when memory constraints are relaxed. We believe our results mark an important step towards realizing the potential of pipeline parallelism.
AI model inference training
56.6K
Featured AI Tools
English Picks
Jules AI
Jules AI
Jules は、自動で煩雑なコーディングタスクを処理し、あなたに核心的なコーディングに時間をかけることを可能にする異步コーディングエージェントです。その主な強みは GitHub との統合で、Pull Request(PR) を自動化し、テストを実行し、クラウド仮想マシン上でコードを検証することで、開発効率を大幅に向上させています。Jules はさまざまな開発者に適しており、特に忙しいチームには効果的にプロジェクトとコードの品質を管理する支援を行います。
開発プログラミング
50.0K
NoCode
Nocode
NoCode はプログラミング経験を必要としないプラットフォームで、ユーザーが自然言語でアイデアを表現し、迅速にアプリケーションを生成することが可能です。これにより、開発の障壁を下げ、より多くの人が自身のアイデアを実現できるようになります。このプラットフォームはリアルタイムプレビュー機能とワンクリックデプロイ機能を提供しており、技術的な知識がないユーザーにも非常に使いやすい設計となっています。
開発プラットフォーム
45.8K
ListenHub
Listenhub
ListenHub は軽量級の AI ポッドキャストジェネレーターであり、中国語と英語に対応しています。最先端の AI 技術を使用し、ユーザーが興味を持つポッドキャストコンテンツを迅速に生成できます。その主な利点には、自然な会話と超高品質な音声効果が含まれており、いつでもどこでも高品質な聴覚体験を楽しむことができます。ListenHub はコンテンツ生成速度を改善するだけでなく、モバイルデバイスにも対応しており、さまざまな場面で使いやすいです。情報取得の高効率なツールとして位置づけられており、幅広いリスナーのニーズに応えています。
AI
43.3K
Chinese Picks
腾讯混元画像 2.0
腾讯混元画像 2.0
腾讯混元画像 2.0 は腾讯が最新に発表したAI画像生成モデルで、生成スピードと画質が大幅に向上しました。超高圧縮倍率のエンコード?デコーダーと新しい拡散アーキテクチャを採用しており、画像生成速度はミリ秒級まで到達し、従来の時間のかかる生成を回避することが可能です。また、強化学習アルゴリズムと人間の美的知識の統合により、画像のリアリズムと詳細表現力を向上させ、デザイナー、クリエーターなどの専門ユーザーに適しています。
画像生成
43.6K
OpenMemory MCP
Openmemory MCP
OpenMemoryはオープンソースの個人向けメモリレイヤーで、大規模言語モデル(LLM)に私密でポータブルなメモリ管理を提供します。ユーザーはデータに対する完全な制御権を持ち、AIアプリケーションを作成する際も安全性を保つことができます。このプロジェクトはDocker、Python、Node.jsをサポートしており、開発者が個別化されたAI体験を行うのに適しています。また、個人情報を漏らすことなくAIを利用したいユーザーにお勧めします。
オープンソース
45.8K
FastVLM
Fastvlm
FastVLM は、視覚言語モデル向けに設計された効果的な視覚符号化モデルです。イノベーティブな FastViTHD ミックスドビジュアル符号化エンジンを使用することで、高解像度画像の符号化時間と出力されるトークンの数を削減し、モデルのスループットと精度を向上させました。FastVLM の主な位置付けは、開発者が強力な視覚言語処理機能を得られるように支援し、特に迅速なレスポンスが必要なモバイルデバイス上で優れたパフォーマンスを発揮します。
画像処理
43.3K
English Picks
ピカ
ピカ
ピカは、ユーザーが自身の創造的なアイデアをアップロードすると、AIがそれに基づいた動画を自動生成する動画制作プラットフォームです。主な機能は、多様なアイデアからの動画生成、プロフェッショナルな動画効果、シンプルで使いやすい操作性です。無料トライアル方式を採用しており、クリエイターや動画愛好家をターゲットとしています。
映像制作
17.6M
Chinese Picks
LiblibAI
Liblibai
LiblibAIは、中国をリードするAI創作プラットフォームです。強力なAI創作能力を提供し、クリエイターの創造性を支援します。プラットフォームは膨大な数の無料AI創作モデルを提供しており、ユーザーは検索してモデルを使用し、画像、テキスト、音声などの創作を行うことができます。また、ユーザーによる独自のAIモデルのトレーニングもサポートしています。幅広いクリエイターユーザーを対象としたプラットフォームとして、創作の機会を平等に提供し、クリエイティブ産業に貢献することで、誰もが創作の喜びを享受できるようにすることを目指しています。
AIモデル
6.9M
AIbase
Empowering the Future, Your AI Solution Knowledge Base
© 2025AIbase